Ние сме далеч от истински AI с отворен код
Изкуственият интелект с отворен код е една от най-изненадващите технологични истории през изминалата година. Тъй като компании като OpenAI и Google наляха милиарди долари в изграждането на все по-мощен AI, „отворените“ модели, които са свободно достъпни за разработчици за използване и адаптиране, затвориха разликата в производителността.
Има само един недостатък: повечето от тези системи с отворен код не са много отворени. Критиците обвиняват поддръжниците им в „отворено измиване“ — опитвайки се да се възползват от ефекта на ореола на отворения код, с неговата свобода от ограниченията на нормалните търговски софтуерни продукти, но не отговарят на името.
Усилията създаването на наистина отворена версия на AI най-накрая набира скорост. Но няма гаранция, че прогресът му ще съвпадне с този на софтуера с отворен код, който започна да играе критична роля в света на технологиите през последните 20 години. При традиционния софтуер с отворен код, като операционната система Linux, кодът е свободно достъпен за разработчиците, за да го проверяват, използват и адаптират. Така нареченият изкуствен интелект с отворен код е много различен, не на последно място защото повечето съвременни системи за изкуствен интелект се учат от данни, вместо да имат програмирана логика в код.
Вземете Ламата на Мета. Разкриват се само „теглата“, които определят как моделът отговаря на запитвания. Потребителите могат да го вземат и адаптират, но не могат да видят основните данни, на които е обучен, и нямат достатъчно информация, за да възпроизведат модела от нулата.
За много разработчици това все още има някои ясни предимства. Те могат да адаптират и обучават квазиотворени модели на собствената си информация, без да е необходимо да предават чувствителните вътрешни данни на друга компания.
Но да не си напълно отворен си има своята цена. Според Ayah Bdeir, старши съветник на Mozilla Foundation, само една истинска технология с отворен код би дала на хората пълно разбиране на системите, които започват да влияят на всички аспекти на живота ни, като същевременно гарантира, че иновациите и конкуренцията не могат да бъдат смачкани от шепа доминиращи компании за изкуствен интелект.
Един от отговорите дойде от Open Source Initiative – която изложи дефиницията на софтуер с отворен код повече от 20 години преди. Тази седмица тя изготви почти финална дефиниция, която може да помогне да се оформи как се развива полето.
Това ще изисква не само теглата за публикуване на модел, но и достатъчно информация за данните, върху които беше обучен да позволи на някой друг да го възпроизведе, както и целия код зад системата. Други групи, като Mozilla и Linux Foundation, настояват за подобни инициативи.
Ходове като тези вече водят до по-голяма сегментация в света на ИИ. Много компании са по-внимателни с терминологията си – може би имайки предвид, че OSI притежава търговската марка на термина „отворен код“ и може да съди, за да предотврати използването му в модели на AI, които попадат извън собствената му дефиниция. Mistral, например, нарича своя Nemo модел с „отворени тегла“.
Наред с частично отворените системи започват да се появяват и модели с пълен отворен код, като големия езиков модел Olmo, разработен от института Allen за AI. И все пак не е ясно, че тази версия ще има толкова голямо влияние в света на ИИ, колкото имаше в традиционния софтуер. За да се случи това, ще са необходими две неща.
Едното е, че технологията ще трябва да отговори на достатъчно голяма нужда, за да привлече критична маса от потребители и разработчици. С традиционния софтуер сървърната операционна система Linux представлява ясна алтернатива на Windows на Microsoft, спечелвайки си голяма база от потребители и силна подкрепа от съперниците на Microsoft, включително IBM и Oracle. Linux няма еквивалент в света на AI. Пазарът вече е по-фрагментиран и много потребители ще намерят квазиотворените LLM като Llama подходящи.
Поддръжниците на AI с отворен код също трябва да направят по-добра аргументация за неговата безопасност. Перспективата такава мощна технология с общо предназначение да бъде пусната, за да може всеки да я използва правилно, предизвиква широко разпространено безпокойство.
Орен Ециони, бивш ръководител на института Алън, казва, че много страхове са преувеличени. Когато става въпрос за влизане онлайн, за да проучите как да направите бомба или биологично оръжие: „Наистина не можете да извлечете повече от тези [AI модели], отколкото можете да извлечете от Google. Има много от него - просто е опакован по различен начин. Той признава, че има някои области, в които предоставянето на по-свободен достъп до AI може да причини вреда, като например автоматизирането на създаването на повече онлайн дезинформация.
„Затвореният“ AI също носи рискове. Но докато допълнителният незначителен риск от отворен код на технологията не бъде по-задълбочено проучен, заедно с потенциалните ползи, страховете ще останат.